MAE
개요
MAE(Mean Absolute Error, 평균 절대 오차)는 회귀(regression) 문제에서 예측값과 실제값 사이의 오차를 평가하는 대표적인 지표 중 하나입니다. 인공지능 모델, 특히 회귀 모델의 성능을 측정할 때 널리 사용되며, 오차의 절대값을 평균하여 계산하므로 해석이 직관적이고 이해하기 쉬운 장점이 있습니다.
MAE는 예측 오차의 크기만을 고려하며, 오차의 방향(과대예측 또는 과소예측)은 무시하지만, 이상치(outlier)에 비교적 민감하지 않아 데이터에 이상치가 많을 경우 RMSE(Root Mean Squared Error)보다 더 안정적인 평가 지표로 여겨질 수 있습니다.
수식 및 계산 방법
MAE는 다음의 수식으로 정의됩니다:
$$
\text{MAE} = \frac{1}{n} \sum_{i=1}^{n} |y_i - \hat{y}_i|
$$
여기서:
- $ n $: 샘플의 수
- $ y_i $: $ i $번째 샘플의 실제값 (정답 레이블)
- $ \hat{y}_i $: $ i $번째 샘플의 예측값
- $ |y_i - \hat{y}_i| $: 절대 오차
계산 예시
다음과 같은 예측 결과가 있다고 가정해 봅시다:
| 샘플 |
실제값 ($ y $) |
예측값 ($ \hat{y} $) |
절대 오차 ($ |y - \hat{y}| $) |
| 1 |
10 |
8 |
2 |
| 2 |
15 |
16 |
1 |
| 3 |
20 |
18 |
2 |
| 4 |
25 |
27 |
2 |
이 경우 MAE는 다음과 같이 계산됩니다:
$$
\text{MAE} = \frac{2 + 1 + 2 + 2}{4} = \frac{7}{4} = 1.75
$$
즉, 평균적으로 예측값이 실제값에서 1.75 단위만큼 벗어난다는 의미입니다.
MAE의 특징
장점
- 해석 용이성: MAE는 오차의 평균을 절대값으로 계산하므로 단위가 원본 데이터와 동일하며, "평균적으로 예측이 X만큼 어긋났다"는 식으로 직관적으로 설명할 수 있습니다.
- 이상치에 대한 강건성: 제곱 오차를 사용하는 RMSE와 달리, MAE는 큰 오차를 제곱하지 않기 때문에 이상치의 영향을 덜 받습니다. 따라서 이상치가 많은 데이터셋에서 더 안정적인 성능 지표가 될 수 있습니다.
- 대칭성: 과대예측과 과소예측을 동일하게 평가하므로, 예측 방향에 편향을 두고 싶지 않을 때 적합합니다.
단점
- 기울기의 비매끄러움: 절대값 함수는 0에서 미분 불가능하므로, 최적화 과정에서 경사 하강법(Gradient Descent) 적용 시 수치적 불안정성이 발생할 수 있습니다. 이로 인해 일부 모델 학습에서는 MAE 대신 MSE(Mean Squared Error)를 손실 함수로 사용하기도 합니다.
- 정보 손실: 오차의 크기만 반영하고, 오차의 분포나 분산에 대한 정보는 제공하지 않습니다.
다른 평가 지표와의 비교
| 지표 |
수식 |
특징 |
| MAE |
$ \frac{1}{n} \sum \|y_i - \hat{y}_i\| $ |
직관적, 이상치에 강건 |
| MSE |
$ \frac{1}{n} \sum (y_i - \hat{y}_i)^2 $ |
제곱 오차로 이상치에 민감, 미분 가능 |
| RMSE |
$ \sqrt{\frac{1}{n} \sum (y_i - \hat{y}_i)^2} $ |
MSE의 제곱근, 단위가 원 데이터와 동일 |
| MAPE |
$ \frac{100\%}{n} \sum \left| \frac{y_i - \hat{y}_i}{y_i} \right| $ |
상대 오차 기반, 백분율로 표현 |
✅ MAE vs RMSE: 일반적으로 RMSE는 MAE보다 크거나 같으며, RMSE가 더 큰 값을 가질수록 이상치의 영향이 크다는 것을 의미합니다. 두 값의 차이를 분석하면 모델의 오차 분포를 파악하는 데 도움이 됩니다.
활용 사례
- 부동산 가격 예측: 집값 예측 모델의 성능을 MAE로 평가하면 "평균적으로 예측이 500만 원 정도 차이 난다"는 식으로 이해하기 쉬운 결과를 제공합니다.
- 기상 예보: 강수량, 기온 예측 모델에서 MAE를 사용해 예측 정확도를 평가합니다.
- 주가 예측: 단기 주가 예측 모델의 성능을 비교할 때 사용되며, 절대 오차 기반 평가가 유리할 수 있습니다.
참고 자료 및 관련 문서
📚 추천 도서:
- Hands-On Machine Learning with Scikit-Learn, Keras, and TensorFlow – Aurélien Géron
- Pattern Recognition and Machine Learning – Christopher M. Bishop
MAE는 인공지능 모델 평가에서 기본이 되는 지표 중 하나로, 특히 해석의 용이성과 안정성 면에서 중요한 역할을 합니다. 모델 개발 시 다양한 평가 지표와 함께 MAE를 활용하면 보다 포괄적이고 신뢰할 수 있는 성능 분석이 가능합니다.
# MAE
## 개요
**MAE**(Mean Absolute Error, 평균 절대 오차)는 회귀(regression) 문제에서 예측값과 실제값 사이의 오차를 평가하는 대표적인 지표 중 하나입니다. 인공지능 모델, 특히 회귀 모델의 성능을 측정할 때 널리 사용되며, 오차의 절대값을 평균하여 계산하므로 해석이 직관적이고 이해하기 쉬운 장점이 있습니다.
MAE는 예측 오차의 크기만을 고려하며, 오차의 방향(과대예측 또는 과소예측)은 무시하지만, 이상치(outlier)에 비교적 민감하지 않아 데이터에 이상치가 많을 경우 RMSE(Root Mean Squared Error)보다 더 안정적인 평가 지표로 여겨질 수 있습니다.
---
## 수식 및 계산 방법
MAE는 다음의 수식으로 정의됩니다:
$$
\text{MAE} = \frac{1}{n} \sum_{i=1}^{n} |y_i - \hat{y}_i|
$$
여기서:
- $ n $: 샘플의 수
- $ y_i $: $ i $번째 샘플의 실제값 (정답 레이블)
- $ \hat{y}_i $: $ i $번째 샘플의 예측값
- $ |y_i - \hat{y}_i| $: 절대 오차
### 계산 예시
다음과 같은 예측 결과가 있다고 가정해 봅시다:
| 샘플 | 실제값 ($ y $) | 예측값 ($ \hat{y} $) | 절대 오차 ($ |y - \hat{y}| $) |
|------|------------------|------------------------|-------------------------------|
| 1 | 10 | 8 | 2 |
| 2 | 15 | 16 | 1 |
| 3 | 20 | 18 | 2 |
| 4 | 25 | 27 | 2 |
이 경우 MAE는 다음과 같이 계산됩니다:
$$
\text{MAE} = \frac{2 + 1 + 2 + 2}{4} = \frac{7}{4} = 1.75
$$
즉, 평균적으로 예측값이 실제값에서 **1.75 단위**만큼 벗어난다는 의미입니다.
---
## MAE의 특징
### 장점
- **해석 용이성**: MAE는 오차의 평균을 절대값으로 계산하므로 단위가 원본 데이터와 동일하며, "평균적으로 예측이 X만큼 어긋났다"는 식으로 직관적으로 설명할 수 있습니다.
- **이상치에 대한 강건성**: 제곱 오차를 사용하는 RMSE와 달리, MAE는 큰 오차를 제곱하지 않기 때문에 이상치의 영향을 덜 받습니다. 따라서 이상치가 많은 데이터셋에서 더 안정적인 성능 지표가 될 수 있습니다.
- **대칭성**: 과대예측과 과소예측을 동일하게 평가하므로, 예측 방향에 편향을 두고 싶지 않을 때 적합합니다.
### 단점
- **기울기의 비매끄러움**: 절대값 함수는 0에서 미분 불가능하므로, 최적화 과정에서 경사 하강법(Gradient Descent) 적용 시 수치적 불안정성이 발생할 수 있습니다. 이로 인해 일부 모델 학습에서는 MAE 대신 MSE(Mean Squared Error)를 손실 함수로 사용하기도 합니다.
- **정보 손실**: 오차의 크기만 반영하고, 오차의 분포나 분산에 대한 정보는 제공하지 않습니다.
---
## 다른 평가 지표와의 비교
| 지표 | 수식 | 특징 |
|------|------|------|
| **MAE** | $ \frac{1}{n} \sum \|y_i - \hat{y}_i\| $ | 직관적, 이상치에 강건 |
| **MSE** | $ \frac{1}{n} \sum (y_i - \hat{y}_i)^2 $ | 제곱 오차로 이상치에 민감, 미분 가능 |
| **RMSE** | $ \sqrt{\frac{1}{n} \sum (y_i - \hat{y}_i)^2} $ | MSE의 제곱근, 단위가 원 데이터와 동일 |
| **MAPE** | $ \frac{100\%}{n} \sum \left| \frac{y_i - \hat{y}_i}{y_i} \right| $ | 상대 오차 기반, 백분율로 표현 |
> ✅ **MAE vs RMSE**: 일반적으로 RMSE는 MAE보다 크거나 같으며, RMSE가 더 큰 값을 가질수록 이상치의 영향이 크다는 것을 의미합니다. 두 값의 차이를 분석하면 모델의 오차 분포를 파악하는 데 도움이 됩니다.
---
## 활용 사례
- **부동산 가격 예측**: 집값 예측 모델의 성능을 MAE로 평가하면 "평균적으로 예측이 500만 원 정도 차이 난다"는 식으로 이해하기 쉬운 결과를 제공합니다.
- **기상 예보**: 강수량, 기온 예측 모델에서 MAE를 사용해 예측 정확도를 평가합니다.
- **주가 예측**: 단기 주가 예측 모델의 성능을 비교할 때 사용되며, 절대 오차 기반 평가가 유리할 수 있습니다.
---
## 참고 자료 및 관련 문서
- [Mean Squared Error (MSE)](https://en.wikipedia.org/wiki/Mean_squared_error)
- [Root Mean Squared Error (RMSE)](https://en.wikipedia.org/wiki/Root-mean-square_deviation)
- [Mean Absolute Percentage Error (MAPE)](https://en.wikipedia.org/wiki/Mean_absolute_percentage_error)
- Scikit-learn 공식 문서: [`sklearn.metrics.mean_absolute_error`](https://scikit-learn.org/stable/modules/generated/sklearn.metrics.mean_absolute_error.html)
> 📚 **추천 도서**:
> - *Hands-On Machine Learning with Scikit-Learn, Keras, and TensorFlow* – Aurélien Géron
> - *Pattern Recognition and Machine Learning* – Christopher M. Bishop
---
MAE는 인공지능 모델 평가에서 기본이 되는 지표 중 하나로, 특히 해석의 용이성과 안정성 면에서 중요한 역할을 합니다. 모델 개발 시 다양한 평가 지표와 함께 MAE를 활용하면 보다 포괄적이고 신뢰할 수 있는 성능 분석이 가능합니다.